مغز انسان پیچیدهترین عنصری است که در جهان هستی وجود دارد. حتی تعدادی از دانشمندان بر این باور هستند که دانستنیهای ما در مقایسه با ناشناختهها از مغزمان خیلی اندک است. دانشمندان سالهاست تلاش میکنند هوش مصنوعی طراحی کنند که از هوش انسان قدرتمندتر باشد. اکنون این رویا تا حدودی به واقعیت تبدیل شده و هوشهای مصنوعی بسیاری ساخته شدهاند که قابلیت شبیهسازی ذهن انسان را تا حد بالایی دارند و میتوانند محاسباتی را انجام دهند که از توانایی انسان خارج است.
فیزیکدان معروف دکتر ریچارد فِینمَن میگوید:
چیزی را که من نمیتوانم ایجاد کنم، نمیتوانم درک کنم. یاد بگیرید که چگونه مسائل حل شده را خودتان حل کنید.
یک زیررشتهی قدرتمند و رو به افزایش از علوم اعصاب بر پایه و مبنای سخنان دکتر فینمن ایجاد شده است. در تئوری دانشمندان علوم اعصاب، کلید درک اینکه هوش چگونه کار میکند این است که آن را در داخل یک کامپیوتر از نو بسازیم. نورون به نورون. و این روش دانشمندان را به بازسازی فرایندهای عصبی که منجر به تفکر، خاطره یا احساس میشود امیدوار میکند.
با مغز دیجیتالیِ حال حاضر، دانشمندان میتوانند تئوریهای معاصرِ مربوط به ادراک را تست کنند یا در پارامترهایی که منجر به عملکرد بدِ ذهن میشوند کاوش کنند. همانطور که فیلسوف دکتر نیک بوستروم در دانشگاه اکسفورد اثبات کرد، شبیهسازی ذهن بشر اگرچه پرزحمت است اما میتواند یکی از نویدبخشترین روشهای بازسازی و حتی جلو افتادن از نبوغ بشری باشد.
مشکلی که وجود دارد این است که کامپیوترهای امروزی ما نمیتوانند ماهیت موازی و پیچیدهی مغز ما را مدیریت کنند. مغز انسان ۱۰۰ میلیارد نورون دارد که از طریق تریلیونها اتصال که به آنها سیناپس میگویند با هم ارتباط برقرار میکنند. بخش لایه بیرونی یا کورتِکس وظیفه تشخیص بصری را بر عهده دارد، درحالیکه بخشهای دیگر عملکردهای محرکی را کنترل میکنند.
تاکنون ماشینهایی نظیر کامپیوتر K در موسسهی پیشرفتهی علوم محاسباتی در کوبه ژاپن میتواند عملکرد حداکثر ۱۰ درصد از نورونها و سیناپسهای بخش کورتکس را بر عهده بگیرد. این ناکارامدی تا حدودی ناشی از نرمافزار است.
اما همینطور که سختافزارهای محاسباتی همواره به سرعتهای بالاتری دست مییابند، الگوریتمها نیز به صورت افزایشی به محور اصلی شبیهسازی مجموعهی مغز تبدیل میشوند.
در ماه جاری میلادی، یک گروه بینالمللی ساختار یک الگوریتم شبیهسازی محبوب را به طور کامل بهروز کرد و یک بخش قدرتمندی از تکنولوژی را گسترش داد که به صورت مهیجی زمان محاسبات و حافظهی مورد استفاده را کاهش داد.
در علوم محاسباتی، petascale ابررایانهای است که توانایی اجرای صدهزار فلاپ (پتا فلاپ معادل ۱۰ به توان ۵ فلاپ) را دارد. Petascale برای انجام محاسبات پیشرفته در زمینههای شبیهسازی مغز، شبیهسازی اتم و هسته و سایر موارد این چنینی به کار میرود. با استفاده از الگوریتمهای شبیهسازی حال حاضر، نسل بعدی ابررایانهها تنها پیشرویهای کوچک (نواحی قرمز تیره در مغز مرکزی) در این زمینه ممکن خواهد بود؛
همین موضوع باعث میشود تکنولوژی جدید در استفادهی آیندهی ابررایانهها برای شبیهسازی در سطح کل مغز مناسب باشد. الگوریتم جدید با مجموعهای از سختافزارهای محاسباتی، از لپتاپ گرفته تا ابررایانهها، سازگار است. زمانی که ابررایانههای exascale ( به گونهای برنامهریزی شدهاند که ۱۰ تا ۱۰۰ برابر قدرتمندتر از عملکنندههای امروزی باشند) در آینده به نمایش در بیایند، این الگوریتم میتواند روی این غولهای محاسباتی به سرعت اجرا شود.
نویسندهی محقق ژاکوب جردن که در مرکز تحقیقاتی Jülich آلمان مقالات Frontiers in Neuroinformatics(مرزهای عصبشناسی) را راهاندازی کرد، در اینباره گفت:
با تکنولوژی جدید، امروزه خیلی بهتر از گذشته میتوانیم در افزایش موازی ریزپردازندههای مدرن، که در آینده اهمیت بیشتری در ابررایانههای exascale پیدا خواهند کرد، کاوش کنیم. این یک گام قطعی در راستای خلق تکنولوژیِ دستیابی به شبیهسازی شبکهها در مقیاس مغز است.
مشکل مقیاس
ابررایانههای فعلی از صدها هزار زیردامنه به نام گره تشکیل شدهاند. هر گره متشکل از چندین مرکز پردازشی است که میتواند تعداد انگشتشماری از نورونهای مجازی و اتصالات بین آنها را پشتیبانی کند.
امروزه یکی از محبوبترین الگوریتمهای شبیهسازی مدل «استفاده از حافظه» است. قبل از اینکه دانشمندان تغییرات شبکهی عصبی را شبیهسازی کنند نیاز دارند که ابتدا همه نورونها و اتصالات میان آنها را با استفاده از الگوریتم در مغز مجازی ایجاد کنند.
مشکل اینجاست: برای هر جفت عصبی (نورونی)، مدل مورد نظر باید همهی اطلاعات مربوط به اتصالات هر گره را که نورونهای دریافتی (نورونهای پُستسیناپتیک) در آن قرار دارند نگهداری کند.
به عبارت دیگر، چون نورون پریسیناپتیک که پالسهای الکتریکی خروجی را به بیرون ارسال میکند پاسخی دریافت نمیکند، الگوریتم باید صرفا از طریق مشاهدهی نورون گیرنده و دادهی ذخیره شده در گرهی آن تعیین کند که یک پیام خاص از کجا آمده است.
این فرایند شبیه یک راهاندازی عجیبوغریب به نظر میرسد، اما مدل مورد نظر به همهی گرهها اجازه میدهد تا بخش خاصی از شبکهی عصبی خودشان را به صورت موازی بسازند که به طور چشمگیری زمان بوت شدن را کاهش میدهد و تقریبا به همین دلیل این الگوریتم خیلی محبوب است.
اما همانطور که احتمالا حدس زدهاید، با مشکلات متعددی در مقیاسگذاری مواجه است. گرهی عصبی فرستنده پیام خود را به همهی گرههای عصبی گیرنده همهپخشی میکند. به این معنی که هر گرهی گیرنده نیاز دارد بر اساس هر سیگنال پیام دریافتی در شبکه مرتب شود، حتی این در مورد نورونهایی که در گرههای دیگر قرار دارند هم صدق میکند. به این مفهوم که بخش بزرگی از پیامها در هر گره کنار گذاشته میشوند، زیرا نورون مقصد در آن گره خاص حضور ندارد؛ برای درک بهتر تصور کنید کارمندان ادارهی پست که بیش از حد کار کردهاند همهی پستهای الکترونیکی یک کشور را بررسی میکنند تا آنهایی که متعلق به قوهی قضایی آنهاست پیدا کنند. این روش به طرز دیوانهواری کم بازده است است ولی تا حد زیادی در مدل «استفاده از حافظه» به کار میرود.
همانطور که اندازهی شبکهی عصبی شبیهسازی شده رشد میکند مشکل هم بزرگتر میشود. هر گره نیاز دارد فضایی از حافظه را به یک «دفترچه آدرس» اختصاص بدهد تا نورونها و ارتباطات آنها در آن فهرست شوند. در مقیاس میلیونها نورون، دفترچه آدرس به یک حافظهی بزرگ تبدیل میشود.
اندازه در برابر منبع
این تیم با اضافه کردن یک قطعه کد به الگوریتم، مشکل مورد نظر را رفع کرد. در اینجا به چگونگی عملکرد آن پرداخته میشود.
گرههای گیرنده دو بلوک اطلاعات را شامل میشوند:
اولین بلوک پایگاهدادهای است که دادههای مربوط به نورونهای فرستندهای که به هر گره متصل شدهاند را نگهداری میکند. با توجه به اینکه سیناپسها در انواع و اندازههای متفاوتی هستند که باعث تفاوت مصارف حافظهی آنها میشود، این پایگاهداده اطلاعات خود را بر اساس انواع سیناپسهایی که توسط نورونهای درون گره شکل گرفتهاند مرتب میکند.
این تنظیمات در حال حاضر به طور قابل توجهی از اجداد خودش متفاوت است، زیرا در آن دیتای مربوط به اتصالات بر اساس منابع عصبی ورودی مرتب میشود، نه بر اساس انواع سیناپسها. به همین دلیل گرهی مورد نظر نباید بیشتر از این «دفترچه آدرس» خود را نگه دارد.
نویسندگان بیان کردند که چون دیتای مربوط به اتصالات بر اساس منابع عصبی ورودی مرتب میشود، نه بر اساس انواع سیناپسها، ساختار داده مستقل از تعداد کلی نورونهای موجود در شبکه است.
بلوک دوم دادههای مربوط به اتصالات واقعی بین گرهی گیرنده و فرستندگان آن را ذخیره میکند. مشابه بلوک اول، این بلوک داده را بر اساس انواع سیناپس سازماندهی میکند. به ازای هر نوع سیناپس، این بلوک دادهها را براساس منبع آنها (نورون فرستنده) جدا میکند.
به این ترتیب، الگوریتم بسیار دقیقتر از اجداد خودش است؛ به جای مرتبسازی همهی اتصالات در هر گره، گرههای گیرنده تنها دادههای مربوط به نورونهای مجازی قرار گرفته در خودشان را ذخیره میکنند.
این تیم همچنین به هر نورون فرستنده یک «دفترچه آدرس هدف» اختصاص داده است. در حین انتقال دیتایی که به چند تکه شکسته شده است، هر تکه حاوی قطعه کدی برای مرتبسازی است که آن را به گرههای گیرندهی صحیح هدایت میکند. در عوض پخش یک پیام در گسترهی کامپیوتر، در اینجا دیتا به نورونهای گیرنده که قرار است به آنها برسد محدود میشود.
سریع و هوشمند
اصلاحات مورد نظر اعمال شدند. در سریهای آزمایشی، الگوریتم جدید از نظر مقیاسپذیری و سرعت بسیار بهتر از سری قبل خودش اجرا شد. در ابررایانهی JUQUEEN در آلمان، به لطف طرح انتقال داده ساده و پر بازده، الگوریتم ۵۵ درصد سریعتر از مدلهای پیشین خود روی شبکههای عصبی تصادفی اجرا شد. به عنوان مثال، در شبکهای از نیم میلیون نورون، شبیهسازی نصف اتفاقات بیولوژیکی با استفاده از الگوریتم جدید، حدودا ۵ دقیقه از زمان اجرای JUQUEEN را میگیرد. مدل سابق ۶ برابر این زمان طول میکشید.
دکتر مارکوس دیسمان (Markus Diesmann) نویسنده و محقق مرکز تحقیقاتی Jülich بیان کرد:
این الگوریتم بهطور واقعی به بررسی عملکرد مغز میپردازد، مانند قالبپذیری و یادگیری که در طول چند دقیقه صورت میگیرد و اکنون ما به آن دسترسی داریم.
همانطور که انتظار میرفت، چندین آزمایش مقیاسپذیری که انجام شد نشان داد که الگوریتم جدید در مدیریت شبکههای بزرگ بسیار حرفهایتر است و زمانی که صرف میکند تا دهها هزار انتقال داده را پردازش کند تقریبا به یک سوم کاهش میدهد.
نویسندگان به این نتیجه رسیدند:
تکنولوژی جدید از ارسال تنها دادههای مربوط به هر فرایند سود میبرد. از آنجایی که امروزه حافظهی کامپیوتر از شبکه جدا شده است، این الگوریتم برای به عهدهگرفتن شبیهسازی گسترهی مغز توازن یافته است. اکنون تمرکز روی تسریع شبیهسازی در انواع شبکههای انعطافپذیر است.
با این رهیافت، مغز دیجیتالی بشر نهایتا در دسترس خواهد بود.
درحالیکه یک انقلاب صورت گرفته است، تیم یادآوری میکند که خیلی کارهای دیگری مانده است که باید انجام شود. برای نمونه نگاشت ساختار شبکههای عصبی واقعی به توپولوژی گرههای کامپیوتر باید انتقال داده را آسانتر کند.
اما در آخر باید یادآور این نکته شویم که بسیاری از متفکران و دانشمندان معتقدند هوش مصنوعی میتواند همانند یک شمشیر دولبه برای موجودیت بشر باشد. از طرفی میتواند انسان را قدرتمندترین موجود هستی کند و از طرفی میتواند حیات او را به مخاطره بیندازد. پروفسور استیون هاوکینگ فیزیکدان برجسته انگلیسی که به تازگی درگذشت چندی پیش هشدار داده بود که تلاش برای ساخت ماشینهای هوشمند و متفکر، تهدید جدی برای بشریت محسوب میشود و انسان که با تکامل زیستی کُند محدود شده است، قادر به رقابت با ماشینهای هوشمند نبوده و در نهایت حذف خواهد شد. وی تنها دانشمندی نیست که درخصوص خطرات هوش مصنوعی هشدار داده است؛ الون ماسک بنیانگذار شرکت هوافضای اسپیسایکس، هوش مصنوعی را خطرناکتر از سلاح اتمی توصیف کرده و معتقد است که رباتها میتوانند نسل بشر را در آینده نابود کنند.
.: Weblog Themes By Pichak :.